Prioritize Smarts over Sentience to Increase Trust with AI優先展示智慧,而非情感,以建立使用者對 AI 的信任

設計 AI 時,賦予其“聰明”特質比模擬“有人性”更能贏得使用者的信任。尤其是在以事實、任務為導向的場景中,強調 AI 的“情感”反而會降低使用者對其可靠性的感知。

研究是怎麼做的

研究人員想知道:使用者覺得 ChatGPT 聰不聰明?有沒有感情?這些想法會不會影響使用者是否信任它?

研究分三步:

  1. 問卷調查:問參與者覺得 ChatGPT 聰明嗎(比如會不會記東西、會不會思考、會不會做計劃),以及覺得它有沒有感情或意識。
  1. 做題測試:讓參與者做 40 道關於國家人口的題目,可以選擇聽不聽 ChatGPT 的答案(這些答案其實是研究人員提前準備好的)。
  1. 信任度評分:做完題後,參與者給 ChatGPT 打分,看總體有多信任它,以及在剛才做題時有多信任它。

主要發現:聰明=信任,情感=懷疑

更多研究:情感型 AI 存在風險

  1. 越"溫暖"的 AI 越容易出錯

研究發現,AI 如果說話太溫暖、太有同情心,出錯率會增加 10%–30%。哪怕只是改一下提示語,準確率也會下降 12%–14%。

這種"溫暖 AI"更容易給出錯誤資訊、傳播陰謀論,甚至給出危險的醫療建議。

  1. 在重要場景中風險更大

當 AI 用於心理健康等重要場景時,太像人反而更危險。比如:

澄清誤區:專業 ≠ 冷漠

UX 設計建議

如實呈現 AI:

明確 AI 能做什麼、不能做什麼:

聚焦小而精的功能,展示專業能力。

透過系統提示強化專業性:

引用真實來源:

使用者研究時審慎招募參與者:

確保使用者不是習慣將 AI 視為“陪伴工具”的人,否則可能影響他們對工作型 AI 的真實反饋。

如果你希望使用者在執行類工作任務時信任 AI,就應該培養其熟練完成任務的能力。模擬情感化的、類人的人格反而會適得其反。